• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 인프라 시공 프로젝트용"에 대한 통합 검색 내용이 2,353개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
아레스 캐드 2025의 새로운 기능
데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2025 (1)   DWG 호환 CAD인 독일 그래버트(Graebert)의 아레스 캐드(ARES CAD)는 PC 기반의 아레스 커맨더(ARES Commander), 모바일 기반의 아레스 터치(ARES Touch), 클라우드 기반의 아레스 쿠도(ARES Kudo) 모듈로 구성되어 있다. 이 모듈은 상호 간에 동기화되므로 이를 삼위일체형(trinity) CAD라고 부른다. 이번 호에서는 오토캐드와 호환되는 데스크톱 PC 기반의 아레스 커맨더 2025 버전과 아레스 제품군의 새로운 기능을 간단하게 알아보도록 하겠다.   ■ 천벼리 인텔리코리아 3D 솔루션 사업본부 대리로 기술영업 업무를 담당하고 있다.   이메일 | ares@cadian.com 홈페이지 | www.arescad.kr 블로그 | https://blog.naver.com/graebert  유튜브 | www.youtube.com/GraebertTV   오토캐드 호환성 - 전환을 용이하게 하는 개선된 UI 명령어 : OPTIONS     옵션 대화 상자는 모든 설정을 한데 모아 단위 및 사용자 설정을 포함해 쉽게 접근할 수 있다. 검색 기능이 강화되어 필요한 설정을 손쉽게 찾을 수 있게 개선되었다. 또한, 치수 스타일을 더욱 빠르게 조정할 수 있는 새로운 대화 상자가 추가되어 오토캐드처럼 세부 사항을 사용자 맞춤 설정할 수 있다. 검색 도구에는 사용자가 입력하기 시작하면 사라지는 ‘설정 검색’ 힌트 텍스트가 포함된 입력 상자가 있어, 정확하거나 부분적으로 일치하는 설정을 쉽게 찾을 수 있다. 사용자가 제안된 옵션 위로 마우스를 가져가면 해당 선택을 확인할 수 있는 상세 정보가 표시된다.  이번 버전에서는 오토캐드 사용자가 아레스로 부드럽게 전환할 수 있도록 치수 스타일 편집 기능이 오토캐드 인터페이스와 유사하게 개선되어, 사용자 정의가 더욱 직관적이고 간편해졌다.   인공지능 - 아레스 AI 어시스트 명령어 : ARESAIASSIST     오픈AI(OpenAI) 기반의 아레스 AI 어시스트(A3)는 다양한 언어로 아레스 사용자를 지원하는 인공지능이다. 기능 사용 방법 설명, 인터페이스 탐색, 질문 응답, 사용자 인터페이스 맞춤화, 변환 및 계산, 다양한 언어로의 텍스트 번역 등을 수행한다.  A3는 기본적으로 활성화되어 있으며, 필요에 따라 켜거나 끌 수 있다. 모든 사용자에게 유용하며, 특히 새 사용자는 트리니티(Trinity) 협업 기능과 BIM 기능 학습에서 도움을 받을 수 있다.   상호 운용성 - 아레스 커맨더의 시빌 3D 지원     오토데스크 시빌 3D(Civil 3D) 엔티티 지원을 새롭게 도입하여, 아레스 환경 내에서 시빌 3D 엔티티의 시각화를 가능하게 한다. 초기 버전은 제한된 기능을 제공하지만, 향후 릴리스를 통해 이 기능은 지속적으로 발전될 예정이다. 이러한 발전은 아레스 커맨더와 시빌 3D 간의 상호 운용성을 강화하여, 토목 공학 및 인프라 프로젝트의 설계와 문서화에 종합적인 솔루션을 제공할 것이다.   상호 운용성 - DWG에서 DGN으로 내보내기 명령어 : EXPORTDGN(DGNEXPORT)     DWG 파일을 DGN 형식으로 내보낼 수 있는 기능을 제공한다.  이 기능은 특히 벤틀리 시스템즈의 마이크로스테이션(MicroStation) 사용자나 프로젝트와이즈(ProjectWise)와 작업하는 고객에게 유용하며, 이를 통해 상호 운용성이 향상된다. DGN 파일은 토목 공학, 건축 등 다양한 분야에서 사용되며, 마이크로스테이션 및 인터그래프 소프트웨어의 주요 파일 형식이다. 아레스 커맨더의 이 기능은 단순한 파일 변환을 넘어 DWG와 DGN 형식 간 스타일 차이를 조정하고 이러한 설정을 저장하는 매핑 설정을 제공하여, 사용자가 더 세밀한 변환을 할 수 있도록 지원한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
KAIST-네이버-인텔, 공동연구센터에서 AI 반도체의 새로운 생태계 만든다
KAIST와 네이버, 인텔이 새로운 인공지능 반도체의 생태계 구축을 위해 ‘NAVER · intel · KAIST AI 공동연구센터(NIK AI Research Center)’를 설립하는 업무협약(MOU)을 체결했다. 세 기관의 전략적인 제휴는 인공지능 반도체 및 인공지능 서버와 데이터센터의 운영에 필요한 오픈소스용 소프트웨어 개발 등 인공지능 분야에서 각자 보유하고 있는 하드웨어 및 소프트웨어 기술과 역량을 융합함으로써 새로운 인공지능 반도체 생태계를 구축하는 한편, 시장과 기술주도권 확보를 위해 선제적으로 도전하기 위한 것이다. KAIST와 네이버클라우드는 이번 MOU 체결을 계기로 올 상반기 중에 KAIST에 NIK AI 공동연구센터를 설치하고 7월부터 본격적인 연구에 들어갈 계획이다. KAIST에서는 고대역폭메모리(HBM) 등 인공지능 반도체 설계와 인공지능 응용설계(AI-X) 분야에서 세계적인 석학으로 꼽히는 전기및전자공학부 김정호 교수가, 네이버클라우드에서는 인공지능 반도체 설계 및 인공지능 소프트웨어 전문가인 이동수 이사가 공동연구센터장을 맡는다. 또 KAIST 전산학부 성민혁 교수와 네이버클라우드 권세중 리더가 각각 부센터장으로서 공동연구센터를 이끈다. 공동연구센터의 운영 기간은 3년으로, 연구 성과와 참여기관의 필요에 따라 연장할 수 있는 것으로 알려졌다. KAIST에 설치되는 공동연구센터가 핵심 연구센터로서 기능과 역할을 맡는데, KAIST에서 인공지능과 소프트웨어 분야 전문가인 20명 내외의 교수진과 100여명의 석·박사 대학원생들이 연구진으로 참여한다. 초기 2년간은 인텔의 하바나랩스가 개발한 인공지능 학습 및 추론용 칩 ‘가우디(GAUDI)’를 위한 플랫폼 생태계 공동 구축을 목적으로 20~30개 규모의 산학 연구과제를 진행한다. 또한 자연어 처리, 컴퓨터 비전과 머신러닝 등 주로 인공지능 분야 오픈소스용 소프트웨어 개발 위주로 연구가 이뤄질 예정인데 자율 주제 연구가 50%, 인공지능 반도체의 경량화 및 최적화에 관한 연구가 각각 30%와 20%를 차지한다.  이를 위해 네이버와 인텔은 네이버 클라우드 플랫폼 기반의 가우디2를 KAIST 공동연구센터에 제공하며, KAIST 연구진은 가우디2를 이용한 논문 등 연구 실적을 매년 공개한다. 이 밖에 인공지능, 클라우드 등 각자가 보유한 역량 외에 공동 연구에 필요한 각종 인프라 시설과 장비 등을 공유하는 한편, 연구 인력의 상호 교류를 위해 공동연구센터에 필요한 공간과 행정인력을 지원하는 등 다양한 협력 활동을 전개할 방침이다. KAIST의 김정호 교수는 “KAIST는 가우디 시리즈의 활용을 통해 인공지능 개발, 반도체 설계와 운영 소프트웨어 개발 등에서 기술 노하우를 확보할 수 있다”면서, “특히 대규모 인공지능 데이터센터 운영 경험과 향후 연구개발에 필요한 인공지능 컴퓨팅 인프라를 확보할 수 있다는 점에서 이번 공동연구센터 설립이 큰 의미가 있다”고 강조했다. 네이버클라우드의 이동수 이사는 “네이버클라우드는 KAIST와 함께 다양한 연구를 주도해 나가며 하이퍼클로바X 중심의 인공지능 생태계가 확장되기를 기대한다”면서, “공동연구센터를 통해 국내 인공지능 연구가 보다 활성화되고 인공지능 칩 생태계의 다양성이 확보되기를 바란다”고 말했다.
작성일 : 2024-04-30
지멘스-메르세데스 벤츠, 디지털 에너지 트윈으로 공장 계획을 혁신
지멘스는 메르세데스 벤츠와 협력해 자동차 산업의 지속 가능한 공장 계획의 미래를 촉진하기 위해 디지털 에너지 트윈을 공동 개발했다고 밝혔다. 지멘스와 메르세데스 벤츠의 디지털 에너지 트윈은 오는 2039년까지 전 세계 자동차 제조업체의 생산 현장을 100% 재생 에너지로 운영한다는 비전을 실현하기 위해 설계됐다. 공장을 새로 건설하거나 기존 공장을 재설계/확장하는 경우에 초기 단계에서 에너지 계획 프로세스를 개선, 단순화 및 가속화함으로써 계획 시간을 단축하는 것이 핵심이다. 디지털 에너지 트윈은 디지털 혁신을 가속화하는 개방형 디지털 비즈니스 플랫폼인 지멘스 엑셀러레이터를 기반으로, 다양한 산업에 맞는 맞춤형 제품과 솔루션을 공동 개발할 수 있도록 지원한다. 독일 진델핑겐의 메르세데스 벤츠 공장인 ‘팩토리 56’에서 설계 및 테스트된 디지털 에너지 트윈은 건물, 기술 장비 및 에너지 생산의 행동 모델을 기반으로 기상 데이터, 부하 프로파일 시뮬레이션, 건물 자산 셀렉션 및 치수 측정과 같은 입력값을 연결한다. 또한, 물리적 에너지 시스템을 시뮬레이션하여 에너지 사용에 관한 시나리오를 검증하고 에너지 효율 및 관련 비용 절감, 배출량 감소 등 원하는 결과를 최적화하는 방법에 대한 권장 사항을 제공한다.     지멘스와 메르세데스 벤츠는 지난 2021년 지속 가능한 자동차 생산을 위한 전략적 파트너십을 맺은 이후, 지속 가능한 생산 방식의 디지털화를 발전시키기 위해 협력을 진행하고 있다. 이번 협력으로 양사는 지멘스의 탈탄소화 및 에너지 트윈 분야 노하우와 메르세데스 벤츠의 자동차 산업 지식을 결합하여 자동차 환경을 위한 확장 가능한 도구를 개발하게 된다. 지멘스는 메르세데스 벤츠의 글로벌 생산 네트워크 전반에 걸쳐 디지털 에너지 트윈을 광범위하게 구현할 수 있도록 교육 및 지원을 제공하고, 유지보수 및 지속적인 개발을 담당할 예정이다. 지멘스 스마트 인프라 부문의 마티아스 레벨리우스(Matthias Rebellius) CEO는 “디지털 에너지 트윈은 운영 및 에너지 사용 시나리오를 정확하게 모델링함으로써 초기 계획 단계에서 더 빠르고 투명한 의사 결정을 가능하게 한다”면서, “이는 지멘스가 현실 세계와 디지털 세계를 결합하여 산업에서 확장 가능하고 지속 가능한 발전을 추진하는 방법을 보여주며, 최적화된 계획, 건물 운영 및 생산을 위한 통합 프로세스를 향한 첫걸음”이라고 전했다. 메르세데스 벤츠의 아르노 반데르 메르베(Arno van der Merwe) 자동차 생산 기획 부사장은 “디지털 에너지 트윈은 에너지 효율적인 빌딩 프로세스를 성공적으로 시각화, 분석하고 지속 가능한 방식으로 최적화하기 위한 해답”이라면서, “이 접근 방식을 통해 기존 공장 건물을 더 잘 이해하고 살아있는 스마트 빌딩으로 전환할 수 있다. 이 혁신적인 기술 덕분에 우리는 건물의 잠재력을 극대화하고, 메르세데스 벤츠의 글로벌 생산 네트워크에서 에너지 효율적이고 지속 가능한 건물 사용에 대한 미래 지향적인 기준을 세우고 있다”고 전했다.
작성일 : 2024-04-30
고레로보틱스, 건설자재 자율 운반 로봇 개발 위해 데니스홍 교수와 MOU 체결
로봇 개발 스타트업 고레로보틱스가 UCLA RoMeLa의 데니스 홍 교수와 건설로봇 분야 업무 협약을 위해 MOU를 체결했다고 밝혔다. 고레로보틱스는 ‘자율주행로봇을 활용한 건설현장 건설자재 새벽배송 서비스’를 개발하고 있는  스타트업으로, 2023년 9월에는 미국 실리콘벨리 VC로부터 투자금을 유치하는 등 건설과 로봇 필드에서 주목받고 있다. 이번 MOU를 통해 고레로보틱스는 세계 최고 수준의 로봇 연구소인 UCLA RoMeLa와 인적, 기술적 네트워크를 강화하여 보다 강건한 로봇을 개발한다는 비전을 내세웠다. 두 기관은 공동 개발 및 2024년 국책 R&D 과제를 수주하는 것을 목표로 상호 협력할 예정이다. 특히 건설 현장에 범용적으로 적용할 수 있는 건설자재 운반용 자율주행 로봇에 집중해 미국을 타깃으로 한 플랜트형 모델과 국내를 타깃으로 한 인프라형 모델을 개발할 계획이다. 플랜트형은 반도체 공장, 2차전지 공장, 자동차 공장 등 국내 주요 대기업이 북미에 지어야 하는 공장 건설에 최적화된 모델이며, 인프라 모델은 철도 지하화나 GTX같은 지하 도로 및 철도에 최적화된 모델이라는 것이 고레로보틱스의 설명이다. 한편, 고레로보틱스는 “올해 최소 2개 이상의 북미 지역 건설 현장에서 필드테스트를 진행한다는 목표를 가지고 미국에 법인을 설립했으며, 건설 근로자가 50만명 이상 부족한 북미 건설 시장에서 게임체인저가 되겠다는 목표를 가지고 있다”고 전했다.
작성일 : 2024-04-23
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
효성인포메이션시스템, ‘AI EXPO KOREA 2024’에서 비즈니스 혁신 위한 AI 플랫폼 전략 제시
효성인포메이션시스템이 ‘AI EXPO KOREA(국제인공지능대전) 2024’ 전시에 참가해, 고성능 AI 연산 환경부터 고성능 데이터 처리까지 지원하는 AI 플랫폼 전략 및 비즈니스 혁신을 위한 솔루션을 제시한다고 전했다. 한국인공지능협회와 서울메쎄가 주최하는 AI EXPO KOREA 2024는 5월 1일~3일 서울 코엑스 D홀에서 진행된다. 올해 7회를 맞는 이 행사는 약 300개사 500부스가 참가할 전망이다. 효성인포메이션시스템은 AI 비즈니스를 위해 필요한 GPU 서버부터 초고성능 스토리지, 네트워크를 사전 설계해 통합한 ‘효성 AI 플랫폼’을 체험할 수 있는 공간을 마련했다. AI 도입을 고민하는 관람객을 위한 전문가 컨설팅과 함께 다양한 프로모션도 진행한다. 최근 인간과 유사한 지능과 자가 학습 능력을 갖춘 AGI(일반인공지능)가 등장하며 AI 비즈니스에도 큰 변화가 일고 있다.  AGI의 등장은 더 큰 데이터 세트와 복잡한 AI 모델이 필요함을 의미하며, 이에 따라 GPU 시스템 및 데이터 처리 효율이 보다 중요해졌다. 효성인포메이션시스템은 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 고성능 병렬파일 스토리지 ‘HCSF’를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. 또한, AI/ML옵스 솔루션, GPU 데이터베이스, 인메모리 데이터베이스, 고속 네트워크 등 국내외 다양한 파트너사와 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 솔루션을 제시한다. 효성인포메이션시스템은 AI 시스템 설계 관련해 기획 단계부터 컨설팅이 가능한 전문 인력과 기술 노하우를 보유하고 있으며, 2023년부터 국내 은행권, 공공기관, 유통 대기업, 연구기관, 의료기업 등을 중심으로 AI/GPU 인프라, 빅데이터 플랫폼 구축 사업에서 성공사례를 확보했다고 밝혔다. 효성인포메이션시스템의 양정규 대표이사는 “많은 기업들이 AI 도입을 검토하고 있지만 최적화된 AI 시스템 설계를 위해서는 기획 단계부터 풍부한 경험의 파트너를 만나는 것이 중요하다”면서, ”AI 인프라 구현은 효성인포메이션시스템에 맡기고, 고객은 비즈니스 혁신에만 집중할 수 있도록 당사의 모든 기술력과 노하우를 제공할 것”이라고 전했다.  
작성일 : 2024-04-15
대원씨티에스-딥엑스, AI 솔루션 확산 위해 ‘맞손’, 딥엑스 총판 계약 체결
  대원씨티에스와 딥엑스가 AI 솔루션 확산을 위해 총판계약을 체결했다.(좌로부터 대원씨티에스 정명천 회장, 딥엑스 김녹원 대표, 대원씨티에스 하성원 대표) 대원씨티에스는 4월 11일, 국내 최대의 AI 반도체 스타트업인 딥엑스와 총판 계약을 체결했다. 대원씨티에스는 11일, 판교 딥엑스 본사에서 김녹원 대표이사, 정명천 대원씨티에스 회장 등 양사 관계자들이 참석한 가운데 온디바이스 AI 솔루션을 전산업으로 확산하기 위해 B2B, B2C 비즈니스 총판 계약을 체결했다고 밝혔다. 대원씨티에스는 1988년 창립된 회사로 국내에서 AMD, 델, 슈퍼마이크로, 케이투스 등 글로벌 반도체 및 서버 업체들의 국내 총판을 담당하고 있다. 또한 LG, 삼성, HP 등 국내외 IT 제조사와 총판 계약을 통해 국내 IT 제품의 유통을 주도해왔으며, 작년 7,200억의 유통 매출을 달성했다. 생성형 AI 기술의 확산과 더불어 AI 인프라 시장이 확대되면서 AI 반도체가 주목받고 있다. 전통적인 반도체 기업을 비롯해 글로벌 빅테크 기업들까지 AI 반도체 개발에 뛰어들고 있다. 추론 기술을 구현하기 위한 인공신경망(NPU) 알고리즘을 저전력, 고속으로 처리할 수 있는 AI 반도체는 디지털 4차 혁명과 더불어 어느 산업보다 빠르게 성장하고 있다. 가트너는 오는 2027년 AI 반도체 시장이 1194억 달러로 현재보다 3배 이상 성장할 것으로 전망하고 있다. AI 반도체 시장 선점을 위해 정부에서도 지원을 아끼지 않고 있다. 과학기술정보통신부와 산업통상자원부는 AI 일상화를 지원하기 위해 국내 7대 주력산업이 참여하는 AI 반도체 협업포럼을 출범시켰다. 이런 상황에 대원씨티에스와 딥엑스의 전략적 유통 협력 계약 체결은 남다른 의미를 갖는다. 양사의 계약 체결로 대원씨티에스는 기존 데이터센터 시장에서 NPU 서버, 스토리지, AI 네트워킹 솔루션 공급에서 더 나아가 엣지 인프라 환경까지 영역을 확대해 나간다는 계획이다. 대원씨티에스는 딥엑스와의 협업을 통해 AI를 위한 단일 패키지 솔루션을 공급할 수 있을 것으로 기대된다. 국내 대형 유통 네트워크를 보유하고 있는 대원씨티에스와의 협업은 딥엑스의DX-V1 및 DX-M1과 같은 온디바이스 AI 반도체 제품을 양산 초기부터 대형 유통 네트워크를 통해 고객에게 효율적으로 공급할 수 있다는 전략적 가치가 있다. 더불어 대원씨티에스는 딥엑스가 협력을 타진하고 있는 글로벌 서버 개발사들인 델, 슈퍼마이크로, 케이투스 등의 국내 총판 유통사이기 때문에 딥엑스의 서버 시장 공략에서도 시너지를 발휘할 것으로 기대하고 있다. 대원씨티에스의 하성원 대표는 “그동안 국내 시장에서 다양한 서버 업체들의 총판을 담당하면서 GPU 서버 중심의 AI 인프라 시장을 타깃으로 해왔다”면서 “이번에 딥엑스와의 총판 계약 체결로 명실상부한 국내 AI 인프라 구축 솔루션 전문업체로 거듭날 계획”이라고 밝혔다. 딥엑스 김녹원 대표는 “대원씨티에스의 탄탄하고 폭넓은 유통망과 딥엑스의 우수한 기술력의 제품으로 AI 반도체 시장에서 입지를 확대해 나가겠다. 올해 하반기부터 양산되는 4개의 AI 반도체로 구성된 1세대 제품을 통해 글로벌 시장 공략을 본격화하면서 AI 일상화 시대를 열어가겠다”고 밝혔다.  
작성일 : 2024-04-14
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12